低维空间内,线性不可分时,可以采用非线性。这样等同于映射到高维空间,然后采用线性分类器分类。

比如二类分界面是 y=3x^2+2x+6,我们可采用把原始x映射到(1,x,x^2)空间中,进行线性分类。

核函数可以简单理解成 一种相似性度量
大部分核函数可以归结为两种,内积和1/d
比如矩阵分解中,两个向量的内积来作为相似性度量。
高斯核函数是, 1/exp(d)

也可以用KL距离吧

雷军
IsanSVMassimpleassayingit'sadiscriminativeclassifierthatsimplyoptimizesthehingeloss?
雷军
SVMissimplya**linearclassifier,optimizinghingelosswithL2regularization**.
雷军
Orisitmorecomplexthanthat?
雷军
No,itisjustthat,howevertherearedifferentwaysoflookingatthismodelleadingtocomplex,interestingconclusions.Inparticular,thisspecificchoiceoflossfunctionleadstoextremelyefficientkernelization,whichisnottrueforlogloss(logisticregression)normse(linearregression).Furthermoreyoucanshowveryimportanttheoreticalproperties,suchasthoserelatedtoVapnik-Chervonenkisdimensionreductionleadingtosmallerchanceofoverfitting.
雷军
支持向量有什么作用?
雷军
Supportvectorsaresimplysamplesplacednearthedecisionboundary(loselyspeaking).Forlinearcaseitdoesnotchangemuch,butasmostofthepowerofSVMliesin**itskernelization**-thereSVsareextremelyimportant.Onceyouintroducekernel,duetohingeloss,SVMsolutioncanbeobtained**efficiently**,andsupportvectorsaretheonlysamplesrememberedfromthetrainingset,thusbuildinganon-lineardecisionboundarywiththesubsetofthetrainingdata.
雷军
为什么CNN通常采用logloss(softmax),为什么很少采用hingeloss?CNN+hinge-loss能叫deepSVM吗?
雷军
https://www.reddit.com/[object Object]comments/40680m/why_isnt_cnns_with_hinge_loss_popular_can_we_call/
雷军
hingeloss和ReLU很像,有什么关系吗?

参考